自残、裸露、虐待动物…Facebook内部如何处理这样的内容?
如果你在你的社交网络上看到下面这些内容,你觉得应该怎样处理?
一些人自残行为的直播;
一些没有裸露的堕胎视频;
一些非性虐待、但霸凌儿童、虐待动物的照片;
......
如果在国内,这些内容很有可能会被举报或被屏蔽删除,但在崇尚“言论自由”的美国,在有近20亿用户的Facebook上,这些内容却在内部的管理员手册中,被描述为“可以不被删除”。
翻译 | 喜汤
整理 | 郝鹏程 姜涛
来源 | 《卫报》
近期,《卫报》在一项调查中,首次曝光了Facebook对用户发布动态有一些隐秘规定,这一结论激化了关于Facebook的角色和道德底线的大争论。
《卫报》的调查显示,Facebook大约有100多个内部培训手册、电子表格和流程图,它们深度揭秘了Facebook在面对暴力、仇恨言论、恐怖主义、色情、种族主义、自残行为、假球甚至食人的时候,是如何和谐这些内容的。
其中,可能有一些你听都没听过的名词,如“色情复仇”:
场面凄惨的死亡视频,虽然它们的标签是“令人不安的”,但是可以不被删除。因为它们可以提高人们对一些问题的认识,比如精神疾病;
虐待动物的照片可以分享,只有那些极度过分的照片才会打上“令人不安”的标签;
允许直播人们的自残行为,因为Facebook“不想检查/惩罚处于痛苦中的人“;
管理员培训手册中充满了上述案例。最大的作用,就是让他们知道“真正的”暴力威胁和其他“只是嘴上说说”的暴力威胁之间的区别。
但即便如此详细,而Facebook也有数千名管理员,但他们依然面临巨大的挑战。
许多Facebook管理员担忧于那些互相矛盾、特殊的管理政策。比如涉及到性的内容,相关政策看上去那样复杂、令人迷惑。对于一个有着20亿用户的平台,他们的工作量太大了,常常只有10秒的时间对某条内容的去留做决定。有文件显示,Facebook每周会收到大约650万个潜在虚假帐户的举报,而这都需要管理员们核查。
最新消息,Facebook承诺,将目前的4500名内容管理员增加至7500人。
让我们继续看看,这份手册上还有哪些“内部规定”:
在这份泄露的文件当中,Facebook承认“人们通过网络语言暴力发泄心情”,他们觉得在网上“这么做比较安全”。
“人们认为自己不会面临网络暴力,并且对那些遭受网络暴力、受到威胁的人们没有丝毫的同情。因为通过数码设备的沟通交流完全不能激起类似面对面交流的同情心。”
Facebook关于暴力威胁的政策,对号指不会被删除的言论,叉号指要被删掉的言论
“我们认为暴力语言更多的只是发泄情绪,并不足信,除非某些特定语言让我们觉得它超越了发泄情绪,可能转变成一场谋杀。从这一点看,‘我要杀了你’和‘滚去死’这种话就是某种不高兴、沮丧情绪的发泄。”
该文件还补充道:“人们大多用着那种毫无意义、毫不客气的方式,来威胁或呼吁暴力,借以表达对某人、某事的鄙视或不同意。”
Facebook承认“并非所有令人不快、令人不安的内容都会违反我们的标准”。
Facebook的全球政策管理负责人Monika Bickert表示,Facebook有将近20亿用户,很难完全达成共识。
Facebook关于暴力威胁的幻灯片,对号指该言论不会被删除
她说:“Facebook遍布全球,是一个多样化的社交网络,人们判断某些内容适合分享的标准不同。无论我们定哪种标准,总会有一些灰色区域存在,比如讽刺和幽默以及不当内容之间的界限有时候就非常模糊,我们很难决定哪种言论应该留下、哪种应该被删掉。”
“Facebook有责任维护平台安全,我们绝对有责任继续贯彻这些方针,这是一个公司的承诺。我们将会继续投资那些积极保持网站安全的算法,我们也希望人们向我们举报任何违反我们标准的内容。”
她表示,在某些场合下,冒犯性言论会违反Facebook政策,但在另一些场合则不会。
关于非性虐待儿童,Facebook这样规定:
“我们不自动删除虐待儿童的影像,只把它们标记为‘令人不安’的。如果影像当中有性虐待或庆祝因素,我们则要删除它。”
有一张幻灯片说明,Facebook不会自动删除非性虐待儿童的内容,并且这些内容可以被分享,以便“确认孩童身份,对其进行救助,但是我们会对观众进行保护”。即这些非性虐待儿童的内容都会被打上“令人不安”的标签以示警告。
Facebook证实自己“确实允许某些状况下的非性虐待儿童影像存在,但目的是为了帮助孩子。”
该幻灯片也说明了对待虐待动物的政策:
“Facebook允许虐待动物影像的存在,是为了让人们警醒,我们为这种内容添加了观众保护政策,即给它们打上‘令人不安’等标签。”
动物残割,包括那些展示酷刑的照片,会被标记为“令人不安的”而不是直接被删除。管理员也不用删除人类踢、打动物的那种虐待照片。
Facebook说:“我们允许人们分享虐待动物的图片,这是为了提高人们认识、谴责虐待,但是那些包含了庆祝的残忍图片还是会被删除。”
Facebook在去年删除了那张著名的越南战争照片,原因是图片中的小女孩赤身裸体,这引发了强烈的抗议。目前披露的文件显示,Facebook发布了关于裸露的新准则。
现在,Facebook允许“反战”原则之下、“具有新闻价值”的裸露,但是还是禁止发布“大屠杀背景下的儿童裸体照片”
Facebook关于大屠杀相关照片的幻灯片
Facebook告诉《卫报》,目前Facebook正在使用一款软件拦截某些图片内容,让这种图片完全无法上传到网站。但是“我们希望人们能够就全球以及当前问题进行讨论,所以某些具有暴力元素的图片在一些时候是非常有必要的”。
Facebook一直努力评估暴力图像的新闻/认识价值。尽管Facebook最近因为没有删除泰国一位父亲杀死自己孩子的视频而饱受批评,但它也积极传播警方滥杀和其他政府滥用职权的视频,发挥了重要作用。比如在2016年,Facebook删除了一个视频,内容是警察在没有明显原因的情况下,对黑人Philando Castile连开四枪杀死他的视频,随后Facebook恢复了视频,并声称这是一次“误删”。而该视频,最终也引发了美国民众的强烈抗议。
美国和欧洲的批评家们要求Facebook应当和广播、出版商一样被管理。
但是Bickert说Facebook是一个新型公司,并非传统的技术公司,也不是传统的媒体公司。“Facebook开发技术,也认为自己有责任对如何使用技术负责。我们并不发布新闻,只是新闻发布的平台。”
5月1日,一位英国议员发表报告指出:“这个全球最大、最富有的社交媒体公司应当感到耻辱,它完全没有采取足够的措施处理非法、危险内容,也没能设立合适的标准,不能保护用户的安全”。
内容审核专家Sarah T Roberts表示:“小型网络社区的原则和价值设定是一回事,但当一个社区已经拥有了世界很大一部分人口的时候,这时候你说‘分享你自己’,社区就会完全混乱。”
然而,这些规定也让自由言论倡导者担忧。他们认为,Facebook可能已经成为了世界上最大的审查员,该事实敲响了言论自由的警钟。一位消息人士说:“Facebook不能控制其内容,它的规模太大了,内容增长太快了。”
《卫报》指出:无论是应该“严格管理”还是适当“言论自由”,可能都要求Facebook的管理规则更加透明。
扎克伯格在他史诗般的宣言中,这样描绘了他要建立的社区类型:
“过去十年中,Facebook一直专注于帮用户连接家人和朋友。下一步我们要成为新的社会基础设施,保证社区安全、提升每个人在社会事务中的参与度并提高社会的包容性。”
为了这个“社区的社会基础设施”能够实现,Facebook必须承认,它不仅仅要“连接朋友和家人”,还要在这个社区的言论和安全中,找到一个绝佳的平衡。
推荐阅读
点击下方图片即可阅读